2026年3月31日晚,AI圈直接炸了——Anthropic公司旗下的Claude Code,51.2万行完整源码意外泄露,1900多个文件在网上“裸奔”,连没上线的新功能、AI的“内心想法”全被扒得一干二净。
更离谱的是,这不是被黑客攻破,而是公司自己犯了个超低级的技术失误,今天就用大白话,把这件事讲得明明白白。
源码备份地址: https://github.com/instructkr/claw-code
文章末尾有源码附件可下载

一、到底咋泄露的?一句话:自己把“源码钥匙”扔公网了
先给大家科普两个超简单的概念,就能看懂整个事故:
- Claude Code:Anthropic做的AI编程助手,帮程序员写代码、改bug、管理项目,相当于AI版“超级程序员”。
- Source map文件:代码调试用的“翻译器”,能把压缩后的乱码代码,还原成readable的原始源码,正常绝对不能公开发布。
事故经过简单到离谱:
Anthropic更新Claude Code v2.1.88版本时,打包上传到npm(程序员的软件仓库),忘记删掉这个59.8MB的map调试文件。
结果就是:任何人下载这个安装包,都能通过map文件,一键还原出51万行TypeScript源码,完整、带注释、没加密,相当于把产品的“核心设计图纸”直接公开了。
等公司发现赶紧撤下版本,早就晚了——代码已经被网友备份到GitHub,几小时就收获6万多星标,彻底收不回来了。
二、泄露了啥?不止源码,还有AI的“秘密底牌”
这次泄露不只是代码曝光,更挖出了Claude Code藏着的未上线黑科技和内部小秘密,每一个都很有料:
1. 44个未发布的“隐藏功能”,早就写好没上线
原来Claude Code不是慢慢更新功能,是所有新功能早就开发完,藏在代码里等开关:
- 24/7后台Agent:AI不用人盯着,能后台自动跑任务,接GitHub通知就能干活;
- 多AI协同:一个主Claude指挥多个“小助手”,分工处理不同任务;
- 定时任务:支持定时执行代码、触发通知,像闹钟一样自动化;
- 语音控制:直接说话就能让AI写代码,不用敲键盘;
- 持久记忆:不用额外存数据,AI能记住之前的对话和任务。

2. AI的“系统提示词”,全曝光了
源码里直接打包了Claude Code的核心指令——相当于AI的“行为手册”,告诉它该怎么帮人写代码、遵守什么规则、有哪些安全限制。
甚至有开发者把泄露代码喂给Claude Code,AI自己都承认:“这就是我的源码”,实锤没跑。
3. 趣味小彩蛋,工程师的小幽默
除了硬核功能,还扒出不少有意思的细节:
- 187个加载动画文案:就是AI思考时转圈的提示语,工程师写了超多趣味文案;
- 电子宠物系统:藏着18种虚拟宠物,有稀有度、闪光变体,像小游戏一样。
三、对我们普通人有啥影响?没风险,但暴露大问题
先给大家吃颗定心丸:这次泄露不影响普通用户。
- 不会泄露你的个人数据、聊天记录;
- 不会导致AI失控、乱搞事情;
- 模型核心算法、用户隐私都没受影响。
但这件事,暴露了两个很现实的问题:
- 再牛的AI公司,也会犯低级错
Anthropic一直主打“安全AI”,结果栽在“忘删调试文件”这种基础失误上,而且这不是第一次,之前就因同样问题漏过代码。
- AI的“能力天花板”,比我们想的高
这次泄露让大家看到,Claude Code早就具备后台自动运行、多AI协同、持久记忆等能力,只是没对外开放。
未来AI助手,不只是帮写代码,可能变成全自动的AI开发团队,不用人管就能做完一整个项目。
四、这件事,给所有科技公司敲了警钟
对行业来说,这是一次教科书级的安全教训:
- 发布产品前,必须严格检查文件,杜绝低级配置失误;
- 核心源码、调试文件,一定要做好权限管控,不能随便外露;
- 再顶尖的技术团队,也不能忽视基础的流程规范。
最后说两句
这次Claude Code源码泄露,本质是一场人为失误导致的“意外开源”,没黑客、没阴谋,却让全球看到了AI产品的真实研发状态。
对我们普通人而言,不用恐慌,反而能更清楚:AI一直在悄悄进化,那些科幻片里的全自动AI助手,其实离我们越来越近了。
至于Anthropic,只能赶紧修补漏洞、强化流程,毕竟作为AI安全标杆,可不能再犯这种“低级错误”了。
AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说
AITOP100平台官方交流社群二维码:










